查看原文
其他

你的隐私不仅将告别“裸奔”,还能帮你赚钱?探讨隐私计算如何服务你我


“明明只是用手机浏览了某些网站,并没有留下自己的电话,却还是接到推销电话。”
3月15日,2022年央视3·15晚会如约而至。不同于往届,这届3·15晚会首次设立“3·15信息安全实验室”,并希望通过实验室定期发布“信息安全指数”,促进行业进步。
当晚,节目说到做到,曝光了个人信息泄露导致的推销电话及黑产等问题,引发全民关注。
这已经是央视3·15晚会连续多年关注同一话题了:2021年央视3·15重拳曝光人脸识别信息和个人简历信息泄露等问题;2020年矛头对准的是手机软件插件窃取用户隐私信息乱象;2019年揭发了一款在用户毫不知情的情况下违规收集个人信息的产品——“探针盒子”。
其实,个人隐私保护和数据安全问题早就是老生常谈——中国互联网协会发布的《2016中国网民权益保护调查报告》就曾显示,84%的网民曾经遭受过因个人信息泄露带来的不良影响,比如广告推销等;从2015年下半年到2016年上半年的一年间,我国网民因垃圾信息、诈骗信息、个人信息泄露等遭受的总体经济损失高达约915亿元。

但为何这么多年过去,个人信息保护和数据

安全保障的形势依旧如此严峻?


你的隐私被泄露,不能全怪无良商家
一想到数据泄露,一般人可能会想到互联网平台数据安全意识欠缺,有意或无意侵犯用户隐私、滥用数据,导致泄密。这固然没错,但鲜为人知的是,数据泄密其实也与数据流通时所使用的技术直接相关。
和动植物一样,数据也有着长长的生命周期,包括收集、传输、存储、使用、流转、销毁等诸多环节。在如此长的生命周期当中,任何一个环节出现纰漏,都可能导致数据安全问题出现。
传统的信息技术是基于明文数据(没有加密)进行处理,而明文数据一旦被看见,就会泄露具体信息,因此技术本身就存在数据安全隐患——这就好比,一个人光着全身在澡堂洗澡,一旦有外人进入,ta就将与外人“坦诚相见”,没有任何秘密可言。
尤其是在数据流转过程中,传统的数据访问控制技术无法解决跨组织的数据授权管理和数据流向追踪问题,仅仅依靠书面协议,难以实现对数据接收方进行实时监控和审计,因此极易造成个人隐私泄露、数据滥用情况出现。
明文数据处理方式之下,隐私泄露事件层出不穷,数据安全问题严重。例如2018年6月,圆通快递10亿条快递数据被公然在暗网上售卖;次月,3亿顺丰用户数据(包括收寄件人姓名、地址、电话)在暗网售卖;8月,5亿条华住集团用户数据(包括姓名、身份证号、家庭住址、生日等)被泄露;11月,万豪集团名5亿客人的信息泄露。
甚至,左右一国的总统选举和国家发展进程。2016年,8700万Facebook用户的个人数据被泄露给一家叫做“剑桥分析”(Cambridge Analytica)的英国数据公司。该公司根据用户的性格、对生活满意度、政治立场等数据做成算法模型,量身定制地投放有利于特朗普的竞选广告,帮助其上台,最终影响了美国总统大选结果。几年后,东窗事发,Facebook被迫与美国联邦贸易委员会(Federal Trade Commission)达成高达50亿美元的和解协议。
与此同时,无所不在的数据收集技术和多样化的数据处理技术,也使得用户难以掌控个人数据的收集和应用情境,因此信息数据的个人自决权力被严重削弱,特别是随着数字经济的发展,企业间的数据共享变得日益频繁,基于大数据的超强分析能力可将经过匿名处理的数据再次还原,导致现有数据脱敏技术“失灵”,进而直接威胁用户的隐私安全。
为加强隐私保护和数据安全管理,各国纷纷出台相关法律法规,比如欧盟先后通过《通用数据保护条例(《GDPR》)》《数据法案》《欧洲数据治理条例》《非个人数据自由流动条例》等等;中国则在2021年开始执行《数据安全法》《个人信息保护法》,再加上2017年开始实施的《网络安全法》,正式形成数据合规治理体系。
多家全球巨头也因数据安全不合规而吃下巨额罚单。例如,2019年,英国航空公司因为违反《GDPR》被罚1.8339亿英镑;2021年7月,亚马逊因违反《GDPR》被卢森堡数据保护委员会开出7.46亿欧元罚款。
都说数据是数字经济时代的“石油”,中国官方也将数据定义为与劳动力、土地、资本、技术并列的第五生产要素。
数据要想成为生产要素、发挥价值,就必须顺畅地流通起来。但在强监管之下,但为了确保数据合规,数据持有者可能或主动或被动地减少数据共享,导致数据流通遇阻,越来越多数据孤岛出现。
既然如此,有没有一类技术,可以既从根本上解决数据安全合规的问题,同时又确保数据要素流通、充分挖掘数据的价值?有,隐私计算。
 不止告别“裸奔”,个人数据还能“变现”
所谓隐私计算,是一类针对隐私数据全生命周期保护的计算方法。简单说,就是在数据隐私得到充分保护的前提下,让数据高效流通。
在隐私计算出现之前,数据保密通常有三种传统模式——API模式、离线驻场模式和第三方沙箱模式。三种模式都是尺有所长,寸有所短:API模式简单易用,但不适合联合建模、机器学习等深度应用;离线驻场模式可联合建模,机器学习灵活性高,但需人工全程操作,成本高,且敏感信息线下拷贝,会带来数据泄露的高风险,另外海量数据也无法离线使用;第三方沙箱模式,虽然集中处理效率高,可以联合建模、机器学习,但存在第三方承受信任压力、数据安全风险、多方数据源集中难度大等问题。
相比之下,隐私计算让数据所有方可以在不直接共享原始数据的前提下,使得数据使用方得到数据计算后产生的结果以及更高的数据价值,但是在整个流程中,原始数据始终掌握在数据所有方手中,数据安全得到了保障,最终实现“数据可用不可见”“数据不动价值动”的终极愿景。以我们熟知的“人脸识别”为例,如果应用了隐私计算技术,“刷脸”就不会采集任何真正的脸部数据,而是会通过算法模型判断出是否为本人。
虽然能够保护隐私、防止数据泄露,但隐私计算的价值又不仅仅在于此。
先来看几则新闻。
新闻一:2020年7月12日,在媒体Privacy Affairs上出现了一篇题为《Dark Web Price Index 2020》的文章,里面详细列出暗网上信用卡数据、付款处理服务、伪造文件、社交媒体和恶意软件等商品或服务的详细售价。比如附有信用卡的沃尔玛账户卖10美元,余额还剩100美金的PayPal账户详细信息卖198.56美元,被黑的Facebook账户卖74.5美金。
新闻二:互联网巨头的商业模式普遍是通过收集C端用户的数据,为B端企业提供服务、收取费用,在支撑公司发展的同时,用免费的信息服务补偿用户。用户虽然免费使用这些互联网巨头的产品,但无法得到看得见的实惠。为此,美国一家网站发布一款可以让人们出售自己的隐私数据换取折扣或者好处的产品。
新闻三:美国一家区块链企业游说地方立法机关,通过一项立法提案——允许个人在自愿的前提下,出售自己的健康数据,然后卖给医疗机构,换取费用,或者选择保持这些数据的私密性。
新闻一,暗网售卖个人信息引发了人们对网络黑产的巨大担忧;新闻二,该公司的产品并未掀起多少风浪,更未成为主流;新闻三,该企业的提案,也遭遇了巨大的反对声。尽管如此,但三则新闻都有力地说明了,个人隐私数据是的的确确是有价值的。只不过,过去,个人隐私数据要么是被泄露之后发在暗网上被违法售卖,要么苦于种种原因无法变现。
现在,隐私计算的出现,却能让这一局面得到显著改观
如前文所述,确保数据安全、高效、顺畅流通,加快培育数据要素市场,是数字经济发展的大势所趋。但数据成为生产要素的前提是数据确权与定价,即:数据所有者享有怎样的权利?如何在保证数据安全的基础上交易数据?数据如何定价?数据的使用者如何向数据的所有者付费?
传统的信息共享方法是基于明文数据进行处理,但明文数据一旦被看见就会泄露具体信息,因此难以限制数据的用途和用量,难以厘清“责、权、利”,这导致明文数据难以通过供需关系定价,难以大规模地实现市场流通。
而隐私计算技术,作为一类针对隐私数据全生命周期保护的计算方法,能在参与方数据不出本地的前提下,既保护数据安全,又实现多源数据跨域合作,进而破解数据保护与融合应用难题,因此便为数据确权和定价奠定了技术基础,为新时代的数据开放共享提供了解题思路。在隐私计算框架之下,数据的所有权与使用权实现分离。用户的个人数据得到确权后,使用者在使用用户的数据前,须征得用户的知情、同意。在整个数据的生命周期之内,使用者的使用过程(包括查阅复制、转移、删除)均须接受用户的监控。一旦使用了用户的个人数据,使用方就需要给用户进行利益分成。
换句话说,隐私计算不仅仅能保护用户的个人隐私,防止数据泄露,还能帮助用户对个人数据进行确权,充分挖掘用户个人数据的价值。
隐私计算,如何服务你我?
也正是因为上述优势,隐私计算成为了当今计算机领域最当红的赛道,以及全球各大科技公司、资本和创业者争相追逐的风口,国外的微软、Intel、Google,国内的BAT、蚂蚁集团、平安科技、微众银行等均已入局。
除了服务于政企客户,隐私计算企业也不约而同地将隐私计算用于个人场景之中。
比如在国外,从2020年起,Facebook就引入一项名为Private Lift Measurement的解决方案。该方案使用安全多方计算技术,在帮助广告商了解广告投放活动信息的同时,增加了额外的隐私层,以限制Facebook自己或者广告主可以了解的用户信息。Google同样推出了“隐私计算服务”,该技术不仅能够保证用户设备信息的私密性,还可让设备在调用云端功能时不去侵犯用户隐私。
在国内,隐私计算企业同样将目标锁定在提高用户个人福祉,让用户更好地享受数字经济红利上。
比如八分量。这家在可信计算领域积累超过10年、核心团队来自牛津大学、北大、清华的初创企业,创新性地将隐私计算的三项技术方案(多方安全计算、联邦学习和可信执行环境),与区块链技术融合,开发出全自研、自主可控的隐私计算系统。
截至目前,八分量隐私计算系统已深入多个应用场景,并取得效果。
比如职业信用。在职业信用平台,个人信用指数依据个人多维数据计算,这些数据包括工作履历、税务、家庭等。
传统的数据处理方式,是提交电子档,但电子档可被轻松伪造,难以判断个人真实信息。另外,这些个人核心数据在企业进行统一的归档和管理后,一旦泄露,就回导致个人隐私,包括收入、医疗、身份信息等等一览无余。很多涉及个人的敏感信息,也不可避免地回被同时提交。
而八分量隐私计算职业信用平台通过与各个数据合作方合作,搭建隐私计算网络,双方指定可以共享的数据,通过数据联合建模分析,就可以确保数据在不出本地的情况下,完成数据的共享。比如,通过与金融机构合作,在不对外提供职员个人隐私数据的情况下,通过联合建模,为金融机构信贷风控提供更全面的数据信息,从而帮助个人获取到更好的信贷服务。
在上述过程中,多方原始数据在安全可信的环境中共享流通,原始数据没有出域、没有泄露、全程加密使用,数据所有权仍在数据拥有者手中,也就是在确保用户数据安全的前提下,充分挖掘数据的价值。
这只是一个具体应用的场景案例,类似的场景车载斗量。

结语


回到文章开头的话题,移动互联网的发展,虽然为用户带来更多便利,但由于互联网平台数据安全保护力度不够,更关键的是传统的信息处理手段,基于明文数据的技术手段,先天存在安全隐患,导致个人隐私数据一再被泄露,用户叫苦不迭。
但这几年大热的隐私计算,让数据所有方可以在不直接共享原始数据的前提下,让数据使用方得到数据计算后产生的结果以及更高的数据价值,但是在整个流程中,原始数据始终掌握在数据所有方手中,数据安全得到了保障,最终实现“数据可用不可见”“数据不动价值动”的终极愿景。
从技术的底层逻辑上改变了上述局面。隐私计算在确保数据不出本地的前提下,让数据高效、顺畅流通,最终实现“数据可用不可见”“数据不动价值动”的终极愿景,从而解决了数据合规和流通问题。
假以时日,待到隐私计算技术成熟,数据确权和定价问题解决,数据要素市场化配置高效运转,用户个人的隐私数据不仅将有望告别“裸奔”,甚至还能给用户带来利益。届时,数字化将真正阳光普照大地,让每一个人普通人都能享受到数字经济的红利和实惠。
来源:TechWeb
申明:以上信息来自互联网,仅供学习,不作为任何参考。


END

往期回顾

隐私计算头条周刊(3.20-3.26)

终于有人讲明白隐私计算是什么了

CryptFlow2:实用两方安全推理

欢迎投稿邮箱:ppc@openmpc.com更多讨论,请扫描下方二维码,加入交流群一起学习成长。


开放隐私计算


OpenMPC

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存